خبراء يحذرون: استخدام الذكاء الاصطناعي في عمليات احتيال 

 الذكاء الاصطناعي
الذكاء الاصطناعي

حذر خبراء من أن تقنية الذكاء الاصطناعي تغذي انفجارا في عمليات احتيال باستنساخ الصوت.

ويمكن للمحتالين الآن تقليد صوت الضحية باستخدام مقتطف صوتي مدته ثلاث ثوان فقط، وغالبا ما يتم سرقته من ملفات تعريف الوسائط الاجتماعية، ثم يتم استخدامه للاتصال بصديق أو أحد أفراد الأسرة لإقناعهم بأنهم في مأزق وبحاجة إلى المال.

ويقول واحد من كل أربعة بريطانيين إنه أو شخصا يعرفه قد استُهدف بعملية الاحتيال هذه، وفقا للمتخصصين في الأمن السيبراني McAfee.

اقرأ أيضاً|تحذير من استخدام الإمكانيات الكبيرة للذكاء الاصطناعي للمساعدة في دعم الصحة العقلية

ووفقا لصحيفة ديلي ميل البريطانية ، من المقبول تصديق أن غالبية المتضررين اعترفوا بأنهم فقدوا أموالا نتيجة لذلك، مع تكبد حوالي ثلث الضحايا أكثر من 1000 جنيه إسترليني.

وقال تقرير صادر عن الشركة إن الذكاء الاصطناعي قد "غير اللعبة بالفعل لمجرمي الإنترنت''، مع توفر الأدوات اللازمة لتنفيذ عملية الاحتيال مجانا عبر الإنترنت.

ويقود الخبراء والأكاديميون والرؤساء من جميع أنحاء صناعة التكنولوجيا الدعوات لتشديد التنظيم على الذكاء الاصطناعي لأنهم يخشون أن يخرج القطاع عن السيطرة.

ووجدت دراسة استقصائية أجريت على أكثر من 1000 بالغ في المملكة المتحدة أن نصفهم شاركوا بياناتهم الصوتية عبر الإنترنت مرة واحدة على الأقل في الأسبوع على وسائل التواصل الاجتماعي أو الملاحظات الصوتية.